Europäische KI-VerordnungDie eigentlichen Regeln für ChatGPT kommen noch

Die KI-Verordnung ist zwar fertig, aber was sie genau bedeutet, das ist noch lange nicht ausgehandelt. Für KI-Modelle wie ChatGPT fehlen noch sogenannte Praxisleitfäden. Ein erster wird gerade erarbeitet – und mit dem Prozess sind viele unzufrieden.

Eine Rolle Faden auf einem grauen Tisch. Ein Ende weist über den Bildrand hinaus.
Die Arbeit am Leitfaden hat gerade erst begonnen. – Public Domain Castorly Stock / Pexels

Die Europäische Union hat ein KI-Gesetz. Darüber haben wir in den vergangenen Jahren ausführlich berichtet, besonders die langen Diskussionen um gefährliche Praktiken wie biometrische Gesichtserkennung oder Predictive Policing. Beides hat das europäische KI-Gesetz zwar eingeschränkt, aber nicht verboten.

Der lange Weg zu fertigen KI-Regeln ist aber noch immer nicht abgeschlossen. Zunächst einmal haben die Mitgliedstaaten der EU, darunter Deutschland, bei den umstrittenen Punkten noch einen gewissen Spielraum. Die Ampel hatte sich in den Koalitionsvertrag geschrieben, dass sie biometrische Überwachung ablehnt – ihre aktuelle Politik folgt jedoch entgegengesetzte Ziele. Auch, wenn das nur schwer mit den EU-Regeln vereinbar ist.

Und auch in Brüssel wird momentan weiter über Regeln für KI-Systeme verhandelt. Dabei geht es um sogenannte „KI mit allgemeinem Verwendungszweck“, also KI-Modelle wie ChatGPT oder Llama, die zum Beispiel Texte erzeugen können.

Regeln für große Sprachmodelle kamen spät hinzu

Diese Regeln gab es im ursprünglichen Entwurf der Kommission für das Gesetz noch nicht. Der konzentrierte sich auf Anwendungen wie biometrische Überwachungssysteme. Nach Beginn des ChatGPT-Hypes haben die anderen EU-Institutionen eine zweite Säule für diese allgemeinen Modelle mit in das Gesetz hineinverhandelt.

Das sorgte bei einigen Beteiligten für Unmut: Deutschland und Frankreich versuchten, die neuen Regeln zu verhindern. Damit wollten sie ihre zwei nationalen „Champions“ im KI-Bereich schützen, Aleph Alpha in Deutschland und Mistral in Frankreich. Die neuen Regeln könnten die europäischen Unternehmen gegenüber den großen US-Firmen benachteiligen, argumentierten deren Lobbyist:innen. Nachdem die Verhandlungen zur KI-Verordnung dann abgeschlossen waren, verkündete Mistral eine neue Partnerschaft – ausgerechnet mit dem US-Konzern Microsoft.

Die Verordnung bleibt vage

Die fertige KI-Verordnung enthält zu KI-Modellen  „mit allgemeinem Verwendungszweck“ ganze sechs Artikel. Die legen fest, ab wann ein Modell ein „systemisches Risiko beinhaltet“ – etwa, weil es mit besonders viel Rechenleistung trainiert wurde oder weil die Kommission das selbst so festlegt.

Wenn ein Unternehmen so ein Modell anbietet, muss es dazu technische Dokumentation verfügbar machen und eine Strategie vorlegen, wie es das europäische Urheberrecht einhalten will. Außerdem muss es „hinreichend detailliert“ offenlegen, welche Daten es für das Training seines Modells benutzt hat. Ausnahmen gibt es für quelloffene Modelle.

Diese Vorschriften sind sehr vage gehalten. Das Gesetz sieht vor, dass es einmal eine harmonisierte Norm geben wird, an der sich Unternehmen genauer orientieren können. Dafür zuständig sind die zwei europäischen Standardisierungsorganisationen namens CEN und CENELEC. Sie sollen der Kommission bis zum 30. April 2025 einen Abschlussbericht vorlegen.

Der Praxisleitfaden soll es richten

Neben der Norm sieht die Verordnung auch noch sogenannte „Praxisleitfäden“ vor. Die sollen zur „ordnungsgemäßen Anwendung“ der Verordnung beitragen – oder, besser gesagt, sie sollen aus den Allgemeinplätzen für allgemeine KI erst einmal tatsächliche Regeln machen.

Die Arbeit an einem ersten solchen Praxisleitfaden läuft seit einigen Wochen, jedoch mit großen Anlaufschwierigkeiten. Erstes Problem: Die KI-Verordnung macht nicht klar, wie solche Leitfäden entstehen sollen. Dort steht, dass das neue KI-Büro der Europäischen Kommission ihre Ausarbeitung „fördert und erleichtert“. Es soll die Anbieter von KI-Modellen und zuständige nationale Behörden fragen, ob sie sich an diesem Prozess beteiligen wollen. Alle anderen Beteiligten, etwa Zivilgesellschaft, Wissenschaft oder andere Unternehmen, dürfen den Prozess „unterstützen“.

Das sorgte im Sommer bereits für einen großen Aufschrei. Die Furcht vieler Beobachter:innen war, dass die KI-Anbieter sich ihre Regeln einfach selbst schreiben könnten. Nach einigen Protesten aus der Zivilgesellschaft gab die Kommission nach und überarbeitete den Prozess.

Der deutsche Grünen-Politiker Sergey Lagodinsky hält es weiterhin für wichtig, dass KI-Anbieter zentral in den Arbeitsprozess eingebunden werden. Lagodinsky ist Abgeordneter im Europaparlament und hat die KI-Verordnung mitverhandelt. Es müsse aber auch sichergestellt werden, dass kleine Unternehmen und Zivilgesellschaft auch aktiv einbezogen werden, sagte er zu netzpolitik.org: „Transparenz und Inklusivität im Prozess sind unerlässlich.“

Kleinteiliger Prozess

Der neue Prozess sieht nun so aus: Die Beteiligten haben in einem Plenum Ende September die Arbeit eröffnet. Die Beteiligten wurden dann in Arbeitsgruppen aufgeteilt, die sich mit Aspekten der KI-Regulierung beschäftigen. Ihre Ergebnisse teilen die Arbeitsgruppen dann wiederum in Plenarsitzungen. Eine besondere Rolle spielen die Vorsitzenden der Arbeitsgruppen, eine Reihe an bekannten KI-Expert:innen. Sie diskutieren parallel auch mit den Anbietern der KI-Modelle; das Ergebnis dieser Diskussionen soll wiederum in den Prozess einfließen.

Dieser neue Prozess ist offensichtlich ziemlich verwinkelt. Die erste Plenarsitzung zeigte außerdem ein zusätzliches Problem: Es nahmen beinahe 1.000 Interessierte teil. Wie genau sollen derart viele Stimmen innerhalb von fünf Monaten auf einen Nenner zusammengebracht werden sollen? Allgemein gibt die Kommission nur wenige Informationen dazu raus, wie der weitere Prozess ablaufen soll, beschweren sich einige der Teilnehmenden.

Kritik an mangelnder Transparenz

Laura Lazaro Cabrera hält die Rolle der Vorsitzenden für sehr wichtig. Sie arbeitet beim Center for Democracy and Technology, einer gemeinnützigen US-Organisation, und nimmt am Prozess für den Praxisleitfaden teil. Sie würde gerne sehen, dass die Vorsitzenden transparent machen, worüber in den Treffen mit den Anbietern gesprochen wurde. „Das hat nicht nur mit Transparenz zu tun, sondern auch mit Rechenschaft“, so Lazaro Cabrera. Sie habe aber Vertrauen darin, dass die Vorsitzenden ihrer Verantwortung gerecht werden.

„Der Erfolg des Praxisleitfadens hängt wirklich von den praktischen Dingen ab“, so Lazaro Cabrera. Wie genau die Treffen ablaufen werden oder wie Input danach bewertet werden soll – „all diese Dinge sind gerade noch etwas unklar, und es wäre besser, wenn wir mehr wissen würden.“

Auch Industrievertreter:innen schmeckt der überarbeitete Prozess nicht. Bei einer Veranstaltung vor einigen Wochen kritisierte ein Vertreter des Branchenverbands CCIA, dass einige der Punkte, die in den Verhandlungen zur KI-Verordnung aus dem Gesetz gekürzt wurden, nun erneut diskutiert würden – etwa zusätzliche Pflichten, Informationen über Kund:innen zu sammeln. Außerdem kritisierte er die Vorsitzenden der Arbeitsgruppen: Einige von ihnen seien mit klar ideologischen Gruppen verbunden, alarmistisch und anti-Tech.

Wann die Arbeit einmal in einem Ergebnis münden wird? Eigentlich hatte die Kommission angekündigt, nächste Woche einen ersten Entwurf für den Praxisleitfaden zu veröffentlichen. Das könnte sich nun um eine Woche nach hinten verschieben. Bis April 2025 soll eine finale Version des Praxisleitfadens vorliegen.

1 Ergänzungen

  1. > Deutschland und Frankreich versuchten, die neuen Regeln zu verhindern.

    Wer bitte genau sind hier die Akteure, die entgegenwirken?
    Länderbezeichnungen sind hier unterkomplex.
    Bitte politische Entscheider mit Parteizugehörigkeit klar benennen.

Wir freuen uns auf Deine Anmerkungen, Fragen, Korrekturen und inhaltlichen Ergänzungen zum Artikel. Bitte keine reinen Meinungsbeiträge! Unsere Regeln zur Veröffentlichung von Ergänzungen findest Du unter netzpolitik.org/kommentare. Deine E-Mail-Adresse wird nicht veröffentlicht.